Artificial Intelligence (AI) has become commonplace to solve routine everyday tasks. Because of the exponential growth in medical imaging data volume and complexity, the workload on radiologists is steadily increasing. We project that the gap between the number of imaging exams and the number of expert radiologist readers required to cover this increase will continue to expand, consequently introducing a demand for AI-based tools that improve the efficiency with which radiologists can comfortably interpret these exams. AI has been shown to improve efficiency in medical-image generation, processing, and interpretation, and a variety of such AI models have been developed across research labs worldwide. However, very few of these, if any, find their way into routine clinical use, a discrepancy that reflects the divide between AI research and successful AI translation. To address the barrier to clinical deployment, we have formed MONAI Consortium, an open-source community which is building standards for AI deployment in healthcare institutions, and developing tools and infrastructure to facilitate their implementation. This report represents several years of weekly discussions and hands-on problem solving experience by groups of industry experts and clinicians in the MONAI Consortium. We identify barriers between AI-model development in research labs and subsequent clinical deployment and propose solutions. Our report provides guidance on processes which take an imaging AI model from development to clinical implementation in a healthcare institution. We discuss various AI integration points in a clinical Radiology workflow. We also present a taxonomy of Radiology AI use-cases. Through this report, we intend to educate the stakeholders in healthcare and AI (AI researchers, radiologists, imaging informaticists, and regulators) about cross-disciplinary challenges and possible solutions.
translated by 谷歌翻译
Out-of-distribution detection is crucial to the safe deployment of machine learning systems. Currently, the state-of-the-art in unsupervised out-of-distribution detection is dominated by generative-based approaches that make use of estimates of the likelihood or other measurements from a generative model. Reconstruction-based methods offer an alternative approach, in which a measure of reconstruction error is used to determine if a sample is out-of-distribution. However, reconstruction-based approaches are less favoured, as they require careful tuning of the model's information bottleneck - such as the size of the latent dimension - to produce good results. In this work, we exploit the view of denoising diffusion probabilistic models (DDPM) as denoising autoencoders where the bottleneck is controlled externally, by means of the amount of noise applied. We propose to use DDPMs to reconstruct an input that has been noised to a range of noise levels, and use the resulting multi-dimensional reconstruction error to classify out-of-distribution inputs. Our approach outperforms not only reconstruction-based methods, but also state-of-the-art generative-based approaches.
translated by 谷歌翻译
Artificial Intelligence (AI) is having a tremendous impact across most areas of science. Applications of AI in healthcare have the potential to improve our ability to detect, diagnose, prognose, and intervene on human disease. For AI models to be used clinically, they need to be made safe, reproducible and robust, and the underlying software framework must be aware of the particularities (e.g. geometry, physiology, physics) of medical data being processed. This work introduces MONAI, a freely available, community-supported, and consortium-led PyTorch-based framework for deep learning in healthcare. MONAI extends PyTorch to support medical data, with a particular focus on imaging, and provide purpose-specific AI model architectures, transformations and utilities that streamline the development and deployment of medical AI models. MONAI follows best practices for software-development, providing an easy-to-use, robust, well-documented, and well-tested software framework. MONAI preserves the simple, additive, and compositional approach of its underlying PyTorch libraries. MONAI is being used by and receiving contributions from research, clinical and industrial teams from around the world, who are pursuing applications spanning nearly every aspect of healthcare.
translated by 谷歌翻译
深度神经网络在医学图像分析中带来了显着突破。但是,由于其渴望数据的性质,医学成像项目中适度的数据集大小可能会阻碍其全部潜力。生成合成数据提供了一种有希望的替代方案,可以补充培训数据集并进行更大范围的医学图像研究。最近,扩散模型通过产生逼真的合成图像引起了计算机视觉社区的注意。在这项研究中,我们使用潜在扩散模型探索从高分辨率3D脑图像中生成合成图像。我们使用来自英国生物银行数据集的T1W MRI图像(n = 31,740)来训练我们的模型,以了解脑图像的概率分布,该脑图像以协变量为基础,例如年龄,性别和大脑结构量。我们发现我们的模型创建了现实的数据,并且可以使用条件变量有效地控制数据生成。除此之外,我们创建了一个带有100,000次脑图像的合成数据集,并使科学界公开使用。
translated by 谷歌翻译
可以使用医学成像数据研究人类解剖学,形态和相关疾病。但是,访问医学成像数据受到治理和隐私问题,数据所有权和获取成本的限制,从而限制了我们理解人体的能力。解决此问题的一个可能解决方案是创建能够学习的模型,然后生成以相关性的特定特征(例如,年龄,性别和疾病状态)来生成人体的合成图像。最近,以神经网络形式的深层生成模型已被用于创建自然场景的合成2D图像。尽管如此,数据稀缺性,算法和计算局限性仍阻碍了具有正确解剖形态的高分辨率3D体积成像数据的能力。这项工作提出了一个生成模型,可以缩放以产生人类大脑的解剖学正确,高分辨率和现实的图像,并具有必要的质量,以允许进一步的下游分析。产生潜在无限数据的能力不仅能够对人体解剖学和病理学进行大规模研究,而不会危及患者的隐私,而且还可以在异常检测,模态综合,有限的数据和公平和公平和公平和公平和公平和公平和公平和公平和公平和公平和公平和公平和公平的学习领域进行显着提高。道德AI。代码和训练有素的模型可在以下网址提供:https://github.com/amigolab/synthanatomy。
translated by 谷歌翻译
从药物研究到解剖模型,腹部腹部登记具有各种应用。然而,由于人类腹部的形态异质性和可变性,它仍然是一个充满挑战的应用。在为此任务提出的各种注册方法中,概率位移注册模型通过比较两个图像的点的特征向量来估计点子集的位移分布。这些概率模型具有信息性和健壮性,同时允许设计大量位移。由于位移分布通常是在点子集(我们称为驾驶点)上估算的,因此由于计算要求,我们建议在这项工作中学习驾驶点预测指标。与先前提出的方法相比,以端到端方式优化了驾驶点预测变量,以推断针对特定注册管道定制的驾驶点。我们评估了我们的贡献对与不同模式相对应的两个不同数据集的影响。具体而言,我们比较了使用驱动点预测器或其他2种标准驾驶点选择方法之一时,比较了6种不同概率位移登记模型的性能。提出的方法改善了12个实验中的11个。
translated by 谷歌翻译
激光间质热疗法(LITT)是一种新型的微创治疗方法,用于烧蚀颅内结构,以治疗肠内颞叶癫痫(MTLE)。 LITT之前和之后的感兴趣区域(ROI)分割将使自动化病变定量能够客观地评估治疗疗效。深度学习技术,例如卷积神经网络(CNN)是ROI分割的最新解决方案,但在培训过程中需要大量注释的数据。但是,从LITT等新兴治疗中收集大型数据集是不切实际的。在本文中,我们提出了一个进行性脑部病变合成框架(PAVAE),以扩大训练数据集的数量和多样性。具体而言,我们的框架由两个顺序网络组成:掩模合成网络和掩模引导的病变合成网络。为了更好地利用外部信息来在网络培训期间提供额外的监督,我们设计了条件嵌入块(CEB)和掩模嵌入块(MEB),以将掩模的固有条件编码到功能空间中。最后,使用原始和合成病变图像对分割网络进行训练,以评估所提出的框架的有效性。实验结果表明,我们的方法可以实现逼真的合成结果,并在传统数据增强技术之上提高下游分割任务的性能。
translated by 谷歌翻译
图像分割中使用的数据并不总是在同一网格上定义。对于医学图像,尤其如此,在这种医学图像中,分辨率,视野和方向在各个渠道和受试者之间可能会有所不同。因此,图像和标签通常被重新采样到同一网格上,作为预处理步骤。但是,重采样操作引入了部分体积效应和模糊,从而改变了有效的分辨率并减少了结构之间的对比度。在本文中,我们提出了一个SPLAT层,该层自动处理输入数据中的分辨率不匹配。该层将每个图像推向执行前向通行证的平均空间。由于SPLAT运算符是重采样运算符的伴随,因此可以将平均空间预测拉回到计算损耗函数的本机标签空间。因此,消除了使用插值进行明确分辨率调整的需求。我们在两个公开可用的数据集上显示,具有模拟和真实的多模式磁共振图像,该模型与重新采样相比作为预处理步骤而改善了分割结果。
translated by 谷歌翻译
深层生成模型已成为检测数据中任意异常的有前途的工具,并分配了手动标记的必要性。最近,自回旋变压器在医学成像中取得了最先进的性能。但是,这些模型仍然具有一些内在的弱点,例如需要将图像建模为1D序列,在采样过程中误差的积累以及与变压器相关的显着推理时间。去核扩散概率模型是一类非自动回旋生成模型,最近显示出可以在计算机视觉中产生出色的样品(超过生成的对抗网络),并实现与变压器具有竞争力同时具有快速推理时间的对数可能性。扩散模型可以应用于自动编码器学到的潜在表示,使其易于扩展,并适用于高维数据(例如医学图像)的出色候选者。在这里,我们提出了一种基于扩散模型的方法,以检测和分段脑成像中的异常。通过在健康数据上训练模型,然后探索其在马尔可夫链上的扩散和反向步骤,我们可以识别潜在空间中的异常区域,因此可以确定像素空间中的异常情况。我们的扩散模型与一系列具有2D CT和MRI数据的实验相比,具有竞争性能,涉及合成和实际病理病变,推理时间大大减少,从而使它们的用法在临床上可行。
translated by 谷歌翻译
域适应(DA)最近在医学影像社区提出了强烈的兴趣。虽然已经提出了大量DA技术进行了用于图像分割,但大多数这些技术已经在私有数据集或小公共可用数据集上验证。此外,这些数据集主要解决了单级问题。为了解决这些限制,与第24届医学图像计算和计算机辅助干预(Miccai 2021)结合第24届国际会议组织交叉模态域适应(Crossmoda)挑战。 Crossmoda是无监督跨型号DA的第一个大型和多级基准。挑战的目标是分割参与前庭施瓦新瘤(VS)的后续和治疗规划的两个关键脑结构:VS和Cochleas。目前,使用对比度增强的T1(CET1)MRI进行VS患者的诊断和监测。然而,使用诸如高分辨率T2(HRT2)MRI的非对比度序列越来越感兴趣。因此,我们创建了一个无人监督的跨模型分段基准。训练集提供注释CET1(n = 105)和未配对的非注释的HRT2(n = 105)。目的是在测试集中提供的HRT2上自动对HRT2进行单侧VS和双侧耳蜗分割(n = 137)。共有16支球队提交了评估阶段的算法。顶级履行团队达成的表现水平非常高(最佳中位数骰子 - vs:88.4%; Cochleas:85.7%)并接近完全监督(中位数骰子 - vs:92.5%;耳蜗:87.7%)。所有顶级执行方法都使用图像到图像转换方法将源域图像转换为伪目标域图像。然后使用这些生成的图像和为源图像提供的手动注释进行培训分割网络。
translated by 谷歌翻译